L’ensemble de données utilisé est composé de 232 observations relatives aux transport aérien américain. La base de donnés comporte les variables suivantes : TC représente le coût total, Y représente la production; PL, PF et PK représentent le prix de la main-d’œuvre, du carburant et du capital, respectivement; et sl, sf et sk représentent les parts du coût de la main-d’œuvre, du carburant et du capital, respectivement.
| vCost | vLab | vFuel | vCap | |
|---|---|---|---|---|
| Min. : 79333 | Min. : 31770 | Min. : 7541 | Min. : 38007 | |
| 1st Qu.: 1005795 | 1st Qu.: 328354 | 1st Qu.: 139086 | 1st Qu.: 469889 | |
| Median : 3150914 | Median : 1065750 | Median : 532907 | Median : 1465321 | |
| Mean : 7582145 | Mean : 2476403 | Mean : 1574663 | Mean : 3531079 | |
| 3rd Qu.: 7411541 | 3rd Qu.: 2525421 | 3rd Qu.: 1386393 | 3rd Qu.: 3708206 | |
| Max. :222733802 | Max. :72236952 | Max. :58324497 | Max. :92172353 |
On observe que les coûts associés au carburant sont beaucoup moins importants que ceux relatifs au capital et au travail. Les coûts associés au capital sont légèrement supérieurs à ceux associés au travail. De plus, si l’on observe le troisisème quartile des variables et la valeur maximale, on peut remarquer un gros écart. On peut soupçonner qu’il y a des valeurs extrêmes dans la distribution des coûts.
Globalement, comme nous avons vu dans le résumé des variables précédemment, le capital représente la part la plus importante dans le coût total (47%) suivi du travail et du carburant.
Le graphique du droite est une version zoomée du graphique de gauche. En effet, dans le premier graphique, on peut observer une dispersion importante des dépenses d’inputs notamment due à la présence de valeurs extrêmes. Ces valeurs extrêmes étant notamment présentes dans les dépenses en capital et en travail. Afin de rendre la représentation plus claire, nous avons effectué la deuxième représentation qui vient confirmer nos précédentes observations.
Ce graphqiue nous présente la variabilité du coût total au sein de chaque firme présente dans la BDD. Si l’on dé-zoom, on peut voir que les valeurs extrêmes sont pour la firme 5 et la firme 11. Globalement, ce graphique nous permet d’identifier les “petites” et “grosses” firmes.
| qOut | qLab | qFuel | qCap | |
|---|---|---|---|---|
| Min. :0.02339 | Min. : 0.06536 | Min. : 0.05849 | Min. : 0.07429 | |
| 1st Qu.:0.11253 | 1st Qu.: 0.64510 | 1st Qu.: 0.44259 | 1st Qu.: 0.60115 | |
| Median :0.42747 | Median : 1.68535 | Median : 1.41513 | Median : 1.84773 | |
| Mean :0.65557 | Mean : 3.98194 | Mean : 3.27278 | Mean : 4.04575 | |
| 3rd Qu.:1.21502 | 3rd Qu.: 4.54466 | 3rd Qu.: 3.75733 | 3rd Qu.: 4.58531 | |
| Max. :2.44241 | Max. :128.83321 | Max. :70.66663 | Max. :87.31920 |
On observe que les quantités d’inputs sont relativement simialires. Cependant, comme dans l’analyse de coûts, on observe qu’entre le troisisème quartile et la valeur maximale il y a un gros écart. On peut, ici encore esoupçonner des valeurs extrêmes dans la distribution des quantités d’inputs. Pas de remarques particulières quant à la distribution de l’output.
Le travail et le capital représentent les plus grosses parts d’inputs dans la quantité d’inputs totale, respectivement 35% et 35.2%.
La représentation de droite est une version zommée du graphique de gauche. On observe notamment une valeur extrême pour chaque input qui provient probablement de la même observation.Ce graphique nous présente la variabilité de l’output au sein de chaque firme présente dans la BDD. Si l’on dé-zoom, on peut voir que les valeurs extrêmes correspondent aux firmes 5 et 11 comme on avait pu le remarquer dans l’analyse des coûts. Globalement, ce graphique nous permet d’identifier les “petites”, “moyennes” et “grosses” firmes.
Ces deux graphiques mettent en comparaison la quantité d’inputs utilisée pour produire la quantité d’output finale selon les firmes. Globalement, les firmes ayant une quantité d’inputs plus élevée vont avoir une quantité d’output plus élevée. Cependant, on peut voir que certaines firmes utilisent plus ou moins d’inputs pour produire quasiment la même quantité d’output. Par exemple, si l’on prend les firmes 1 et 11, qui semblent être les deux plus grosses firmes, on peut voir que leurs quantités d’output ne sont pas très éloignées, alors que les quantités d’inputs utilisées sont beaucoup plus faibles pour la firme 1 que la firme 11. La firme 1 semble donc plus efficiente que la firme 11.
On observe une corrélation moyenne entre la quantité d’output et les quantités d’inputs (0.5). Les quantités d’inputs semblent être très corrélées (0.9, 1).
Ces trois graphiques représentent les demandes d’inputs coloriés selon les années.
Les graphiques ci-dessus représentent les productivités moyennes comparées de inputs. Les relations sont toutes positives, ce qui implique que plus la productivité moyenne d’un facteur est élevée, plus celles des autres le sont aussi.
Les relations entre les productivités moyennes et la quantité d’output produite semblent positives, mais sont moins nettes que celles entre les inputs.
Afin de réaliser l’analyse de la frontière stochastique de coût on utilise généralement des modèles où les variables explicatives sont les inputs utilisés dans le processus de production.
Dans ce cas, on se focalise sur les firme dont l’objectif est de produire un niveau donné d’output avec le coût le plus bas possible.
Pour une entreprise inefficace, le coût supplémentare peut-être dû à une surutilisation des inputs. Par conséquent, les économies de coûts proviendront de l’elimination de l’utilisation excédentaire des inputs.
Farell(1957) utilise une mesure de l’inefficacité en supposant ainsi que le point techniquement efficace de l’isoquant de production peut-être obtenu en réduisant l’utilisation de tous les inputs variables dans la même proportion
Le problème de la minimisation des coûts pour le \(producteur_i\) selon une spécification de l’inefficatié technique orientée sur les inputs est :
\(min\) \(w' x\) \(s.t\) \(y= f(xe^{-\eta})\)
C.N.1 = \(\frac{f_{j}(xe^{-\eta})}{f_{j}(xe^{-\eta})}\) = \(\frac{w_j}{w_i}\) ave \(j=2,..J\) et où w, représente le prix des intrants, x, la quantité des intrants, y la quantité produite et où \(\eta\) ≥ 0 peut être interprété comme input-oriented technical inefficiency qui mesure le pourcentage de surutilisation de tous les inputs dans la production du d’ouput y.
\(C^{*}(w,y) = \sum_{J} w_j x_j e^{-\eta}\) = fonction de coût frontière
Cette équation peut être interprété comme la fonction de coût minimale pour le problème suivant :
\(min_{[w_je^{-\eta}]}\) \(w' xe^{-\eta}\) \(s.t\) \(y= f(xe^{-\eta})\)
Ainsi, le minimum de \(w' xe^{-\eta}\) serait inférieur au coût réel \(w' x\).
Donc le coût réel peu être écrit comme suit :
\(C^{a} = \sum_{J} w_j x_j = C^{*}exp(-\eta)\)
Après arrangement cela donne :
\(lnC^{a} = lnC^{*}(w,y) + \eta\) où \(\eta\) représente le niveau du surutilisation des inputs.
De manière standard, nous allons réaliser une régression des moindres carrés ordinaire.
La spécification translog possède comme avantage d’imposer peu de restrictions a priori sur les caractéristiques de la technologie. De plus, une fonction de coût bien définie doit respecter la propriété d’homohénéité de degré 1 par rapport aux prix des facteurs. Cette propriété est imposée avant l’estimation de la fonction de coût en divisant les coûts variables et les prix des facteurs de production par le prix d’un facteur référent ici le prix du facteur Fuel.
La modèle que nous allons à présent estimer s’ecrit comme suit :
Coût = \(\beta_0\) + \(\beta_1\)pxLab + \(\beta_2\)pxCap + \(\beta_y\)Q + [\(\beta_{11}\)pxLab2 + \(\beta_{22}\)pxCap2 + \(\beta_{yy}\)Q2] + \(\beta_{12}\)pxLab.pxCap + \(\beta_{1y}\)pxLab.Q + \(\beta_{2y}\)pxCapQ + \(\eta\)
### Résultats de l’estimation
| Estimate | Std. Error | t value | Pr(>|t|) | |
|---|---|---|---|---|
| (Intercept) | 2.226 | 0.2381 | 9.351 | 9.764e-18 |
| df$pl | 0.2401 | 0.5273 | 0.4553 | 0.6494 |
| df$pk | 0.4989 | 0.8241 | 0.6054 | 0.5455 |
| df$y | 0.8723 | 0.1387 | 6.288 | 1.686e-09 |
| df$plpl2 | -0.4027 | 1.251 | -0.3218 | 0.7479 |
| df$pkpk2 | 0.69 | 1.683 | 0.4099 | 0.6823 |
| df$yy2 | 0.1229 | 0.11 | 1.117 | 0.265 |
| df$plpk | -0.0141 | 1.321 | -0.01068 | 0.9915 |
| df$ply | 0.09782 | 0.172 | 0.5688 | 0.5701 |
| df$pky | 0.08303 | 0.2304 | 0.3604 | 0.7189 |
La seule variable significative de notre modèle est la variable “output” représentant la quantité produite. Au vue de ces résultats, nous pouvons dire qu’une augmentation de 1% de la quantité des produite augmente le coût total de production de 0.5%.
Nous allons effectuer un test de Fisher afin de tester la significativité des coefficients faisant référence aux termes quadratiques présents dans la spéficiation translog.
## No Studentized residuals with Bonferroni p < 0.05
## Largest |rstudent|:
## rstudent unadjusted p-value Bonferroni p
## 132 3.275895 0.0012229 0.2837
Le test “OutlierTest” permet de tester si la valeur la plus extrême du modèle est une valeur abérrante. Ici, la p-value ajustée par la méthode de Bonferonni est très éloignée du seuil de 0.05. Le résidus le plus élevé à savoir l’observation 132, ne peut donc pas être considéré comme outlier.
La distance de cook permet d’estimer l’influence d’une donnée sur l’estimation par MC0. Les observations très influentes dans notre cas sont : 108,132 et 219.
## [1] 132 141
On observe différents zones. La zone du milieu sur la droite théorique puis la zone de gauche et de droite où là les sont plus éloignées de la droite théorique. A l’aide de l’histogramme, concernant l’étalement, on peut remarquer une distribution biaisée à gauche c’ets à dire vers les petites valeurs de nos données.
## Non-constant Variance Score Test
## Variance formula: ~ fitted.values
## Chisquare = 0.1759591, Df = 1, p = 0.67487
##
## Suggested power transformation: 0.9313173
Concernant le test sur la variance de l’erreur, la p-valeur est nettement supérieure au seuil de 0.05 et donc, on peut rejetter l’hypothèse d’hétéroscédasticité.
## df$pl df$pk df$y df$plpl2 df$pkpk2 df$yy2 df$plpk df$ply
## 22.47606 39.92850 9.36011 40.99087 129.00098 11.07245 235.44902 11.27066
## df$pky
## 33.71386
## df$pl df$pk df$y df$plpl2 df$pkpk2 df$yy2 df$plpk df$ply
## TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE
## df$pky
## TRUE
Les FIV (facteurs d’inflation de la variance) estiment de combien la variance d’un coefficient est augmentée en raison d’une relation linéaire avec d’autres prédicteurs. On peut observer des valeur très élevées dues porbablement au fait de l’utilisation de puissance et de produit des variables. En effet, on remarque que la seule variable incluse telle quelle à savoir la variable représentant la quantié produite “y”, qui a un VIF raisonnable de 9. On ne peut donc pas conclure sur la présence de multi-colinéarité.
Les courbes bleues et violettes qui représentent respectivement la courbe des résidus du meilleur ajustement et la courbe des résidus des prédicteurs par rapport à la variable dépendante semblent linéaire. On ne peut donc pas conclure sur un problème de non-linéarité.
Nous allons à présent réaliser une estimation SUR (Seemingly Unrelated Regression). Pour ce faire nous allons à nouveau appliquer une spécification translog à nos variables.
Le modèle s’écrit comme suit :
Coût = \(\beta_0\) + \(\beta_1\)pxLab + \(\beta_2\)pxCap + \(\beta_y\)Q + [\(\beta_{11}\)pxLab2 + \(\beta_{22}\)pxCap2 + \(\beta_{yy}\)Q2] + \(\beta_{12}\)pxLab.pxCap + \(\beta_{1y}\)pxLab.Q + \(\beta_{2y}\)pxCapQ + \(\eta\), équation dans laquelle la variable à expliquer est le coût tôtal normalisé par prix du fuel.
ShareL = \(\beta_1\) + \(\beta_{11}\)pxLab + \(\beta_{12}\)pxCap + \(\beta_{1y}\)Q + \(\zeta_1\), équation dans laquelle la variable à expliquer est la part du coût du travail dans le coût total normalisée au prix du fuel.
ShareK = \(\beta_2\) + \(\beta_{12}\)pxLab + \(\beta_{22}\)pxCap + \(\beta_{2y}\)Q + \(\zeta_2\), équation dans laquelle la variable à expliquer est la part du coût du capital dans le coût total normalisée au prix du fuel.
Nous définissons les contraintes sur les paramètres comme ceci :
## [1] " ShareL_(Intercept) = Cost_df$pl"
## [1] "ShareL_df$y = Cost_df$ply"
## [1] "ShareL_df$pk = Cost_df$plpk"
## [1] "ShareL_df$pl = Cost_df$plpl2 "
## [1] "ShareK_(Intercept) = Cost_df$pk "
## [1] " ShareK_df$y = Cost_df$pky"
## [1] "ShareK_df$pk = Cost_df$pkpk2 "
## [1] "ShareK_df$pl = Cost_df$plpk "
##
## systemfit results
## method: SUR
##
## N DF SSR detRCov OLS-R2 McElroy-R2
## system 696 686 179.118 1e-06 0.586297 0.670309
##
## N DF SSR MSE RMSE R2 Adj R2
## Cost 232 222 178.525049 0.804167 0.896754 0.586761 0.570008
## ShareL 232 228 0.335525 0.001472 0.038361 0.447198 0.439925
## ShareK 232 228 0.257174 0.001128 0.033585 0.244732 0.234794
##
## The covariance matrix of the residuals used for estimation
## Cost ShareL ShareK
## Cost 7.98085e-01 0.000869167 -9.63953e-05
## ShareL 8.69167e-04 0.003000292 -6.09301e-04
## ShareK -9.63953e-05 -0.000609301 2.25085e-03
##
## The covariance matrix of the residuals
## Cost ShareL ShareK
## Cost 8.04167e-01 0.001516687 -3.89232e-05
## ShareL 1.51669e-03 0.001471602 -9.96791e-04
## ShareK -3.89232e-05 -0.000996791 1.12796e-03
##
## The correlations of the residuals
## Cost ShareL ShareK
## Cost 1.00000000 0.0440888 -0.00129233
## ShareL 0.04408877 1.0000000 -0.77368077
## ShareK -0.00129233 -0.7736808 1.00000000
##
##
## SUR estimates for 'Cost' (equation 1)
## Model Formula: df$tc ~ df$pl + df$pk + df$y + df$plpl2 + df$pkpk2 + df$yy2 +
## df$plpk + df$ply + df$pky
##
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 2.36472844 0.07602664 31.10394 < 2.22e-16 ***
## df$pl 0.30360233 0.00657769 46.15636 < 2.22e-16 ***
## df$pk 0.44275391 0.00709553 62.39899 < 2.22e-16 ***
## df$y 0.89175839 0.12145668 7.34219 5.9686e-13 ***
## df$plpl2 0.04436066 0.00964264 4.60047 5.0211e-06 ***
## df$pkpk2 0.03978266 0.01181712 3.36653 0.00080368 ***
## df$yy2 0.05617563 0.08854002 0.63447 0.52598832
## df$plpk 0.01001561 0.00901997 1.11038 0.26722368
## df$ply -0.01231986 0.00290833 -4.23607 2.5853e-05 ***
## df$pky 0.00207036 0.00261836 0.79071 0.42938750
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.896754 on 222 degrees of freedom
## Number of observations: 232 Degrees of Freedom: 222
## SSR: 178.525049 MSE: 0.804167 Root MSE: 0.896754
## Multiple R-Squared: 0.586761 Adjusted R-Squared: 0.570008
##
##
## SUR estimates for 'ShareL' (equation 2)
## Model Formula: df$scLab ~ df$pl + df$pk + df$y
##
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 0.30360233 0.00657769 46.15636 < 2.22e-16 ***
## df$pl 0.04436066 0.00964264 4.60047 5.0211e-06 ***
## df$pk 0.01001561 0.00901997 1.11038 0.26722
## df$y -0.01231986 0.00290833 -4.23607 2.5853e-05 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.038361 on 228 degrees of freedom
## Number of observations: 232 Degrees of Freedom: 228
## SSR: 0.335525 MSE: 0.001472 Root MSE: 0.038361
## Multiple R-Squared: 0.447198 Adjusted R-Squared: 0.439925
##
##
## SUR estimates for 'ShareK' (equation 3)
## Model Formula: df$scCap ~ df$pl + df$pk + df$y
##
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 0.44275391 0.00709553 62.39899 < 2.22e-16 ***
## df$pl 0.01001561 0.00901997 1.11038 0.26722368
## df$pk 0.03978266 0.01181712 3.36653 0.00080368 ***
## df$y 0.00207036 0.00261836 0.79071 0.42938750
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.033585 on 228 degrees of freedom
## Number of observations: 232 Degrees of Freedom: 228
## SSR: 0.257174 MSE: 0.001128 Root MSE: 0.033585
## Multiple R-Squared: 0.244732 Adjusted R-Squared: 0.234794
Les résultats de notre estimation sont très clairs. En effet, une augmentation du prix du travail de 1%, toutes choses égales par ailleurs, entraine une augmentation du coût total de 0.3%. De même, une augmentation du prix du capital de 1%, toutes choses égales par ailleurs, engendre une augmentation du coût total de 0.44%. On observe également qu’une augmentation de 1% de la quantité produite, toutes choses égales par ailleurs entraine une augmentation du coût total de 0.8%. Ce sont les résultats que nous pouvons tirer des estimations de la première équation.
Concernant les résultats de la seconde équation, nous pouvons dire qu’une augmentation du prix du travail de 1% entraine une augmentation de la part du coût du travail de 0.0004 unités, toutes choses égales par ailleurs.De plus, une baisse de la quantité produite de 1%, entraine une baisse de la part du coût du travail de 0.0001 unité.
Enfin, concernant la dernière équation relative à la part du coût du capital dans le coût tôtal, une augmentation de 1% de prix du capital entraine une augmentation de la part du coût du capital de 0.0003 unité.
A présent nous allons utiliser la méthode Corrected Ordinary Least Square. La procédure COLS déplace la frontière de coût vers le bas de la plus petite quantité résiduelle, générant ainsi une frontière qui enveloppe véritablement les données
La pente de la régression COLS est :
\(\hat{\beta_0^*}\) = \(\hat{\beta_0}\)- min(\(\hat{u_i}\))
\(\hat{\beta_0^*}\) = 3.867785
Calculons maintenant le niveau de “Cost efficiency”, qui mesure le pourcentage par lequel le coût réel excède le coût minimum dû à une efficacité technique.
\(\hat{u_i^*}\) = \(\hat{u_i}\) - min(\(\hat{u_i}\))
\(\hat{CE_i}\) = exp(-\(\hat{u_i^*}\))
| Obs | Min | Q1 | Médiane | Moyenne | Q3 | max |
|---|---|---|---|---|---|---|
| 232 | 0.01677 | 0.11999 | 0.25470 | 0.30668 | 0.44379 | 1 |
Nous pouvons également visualiser la distribution de l’indice d’inefficacité.
En moyenne, le niveau d’inefficacité est de 0.3. Rappelons que, par construction, l’inefficacité estimée sera 0 pour une observation (à savoir, la meilleure entreprise) et donc l’efficacité de la meilleure entreprise est de 1. Par conséquent, on peut déduire que les observations dont l’indice d’inefficacité est proche de 0, sont des entreprises efficientes. Inversement, plus on se rapproche de 1, plus les entreprises l’indice d’inefficacité est élevé donc les entreprises sont inefficaces.
Nous allons à présent réaliser une estimation en spécifiant la distribution du terme d’erreur comme suivant une loi demi-normale. Pour ce faire nous allons appliquer une spécification translog à nos variables.
Le modèle s’écrit comme suit :
Coût = \(\beta_0\) + \(\beta_1\)pxLab + \(\beta_2\)pxCap + \(\beta_y\)Q + [\(\beta_{11}\)pxLab2 + \(\beta_{22}\)pxCap2 + \(\beta_{yy}\)Q2] + \(\beta_{12}\)pxLab.pxCap + \(\beta_{1y}\)pxLab.Q + \(\beta_{2y}\)pxCapQ + \(\eta\), équation dans laquelle la variable à expliquer est le coût tôtal normalisé par prix du fuel.
## Stochastic frontier analysis model
##
## Estimate Std. Error t value
## Intercept 0.847831029 0.101897598 8.3204221
## df.pl 0.040618378 0.262787118 0.1545676
## df.pk 0.827005041 0.320987172 2.5764427
## df.y 0.887677317 0.075245676 11.7970542
## df.plpl2 0.559953670 0.699471757 0.8005379
## df.pkpk2 0.766211408 0.589226801 1.3003675
## df.yy2 0.151805515 0.053743628 2.8246235
## df.plpk -0.552556458 0.639393276 -0.8641887
## df.ply -0.097982836 0.078256764 -1.2520686
## df.pky 0.208766685 0.089824020 2.3241744
## sigmau2 2.289025104 0.226611490 10.1010990
## sigmav2 0.003260484 0.002481149 1.3141025
##
## LR-test: sigmau2 = 0 (inefficiency has no influence to the model)
## H0: sigmau2 = 0 (beta_sfa = beta_ols)
##
## value Log-Lik
## sfa -270.6816
## ols -294.1321
##
## value LR-Test: 46.901 on 11 degrees of freedom p-value 1
##
## mean efficiency
## 0.2444073
L’efficacité moyenne du modèle avec distribution demi-normale est de 24.4%, ce qui est très faible. Seules les valeurs de la constante et des variables “pk”, “y”, “yy2”, “pky” et “sigmau2” sont significatives. On peut noter, par exemple, qu’une augmentation du prix du travail de 1%, toutes choses égales par ailleurs, entraine une augmentation du coût total de 0.04% ou qu’une augmentation de 1% de la quantité produite, toutes choses égales par ailleurs entraine une augmentation du coût total de 0.88%.
Ici est représenté l’histogramme des efficacités techniques des 232 observations. La plupart des entreprises sont peu efficaces. On peut noter une observation dont le niveau d’efficacité est de -12, ce qui est très faible.
Nous allons à présent estimer le même modèle, mais en supposant que le terme d’erreur de la régression suit une loi exponentielle.
## Stochastic frontier analysis model
##
## Estimate Std. Error t value
## Intercept 1.165091031 0.25169972 4.628892892
## df.pl -0.179440091 0.40895244 -0.438779850
## df.pk 1.000823518 0.67105967 1.491407642
## df.y 0.793693602 0.11053871 7.180232380
## df.plpl2 -0.270445868 0.97153980 -0.278368285
## df.pkpk2 -0.005234521 1.23515029 -0.004237963
## df.yy2 0.173572947 0.08066650 2.151735285
## df.plpk 0.359991226 0.96399077 0.373438456
## df.ply 0.072028750 0.13256657 0.543340205
## df.pky 0.246849783 0.16966527 1.454922302
## sigmau2 0.818457759 0.25052307 3.266995526
## sigmav2 0.130173372 0.08176084 1.592123624
##
## LR-test: sigmau2 = 0 (inefficiency has no influence to the model)
## H0: sigmau2 = 0 (beta_sfa = beta_ols)
##
## value Log-Lik
## sfa -284.6053
## ols -294.1321
##
## value LR-Test: 19.053 on 11 degrees of freedom p-value 0.93985
##
## mean efficiency
## 0.8909879
L’efficacité moyenne du modèle avec distribution demi-normale est de 89%, ce qui est très important. Seules les valeurs de la constante et des variables “y”, “yy2” et “sigmau2” sont significatives, ce qui est moins que pour la loi demi-normale. On peut noter, par exemple, qu’une augmentation de 1% de la quantité produite, toutes choses égales par ailleurs entraine une augmentation du coût total de 0.79%.
On remarque que la majorité des entreprises ont une efficacité comprise entre 0 et 2. Il y a moins de valeurs négatives que dans le modèle demi-normal, ce qui pourrait expliquer la différence importante entre les moyennes.
Le premier modèle estimé s’écrit comme suit :
\(qOut = \beta_0 + \beta_1qLab + \beta_2qCap + \beta_3qFuel + \eta\), équation dans laquelle la variable à expliquer est la quantité d’output produite en fonction des quantités des inputs.
## Error Components Frontier (see Battese & Coelli 1992)
## Inefficiency decreases the endogenous variable (as in a production function)
## The dependent variable is logged
## Iterative ML estimation terminated after 47 iterations:
## log likelihood values and parameters of two successive iterations
## are within the tolerance limit
##
## final maximum likelihood estimates
## Estimate Std. Error z value Pr(>|z|)
## (Intercept) 4.7291e-01 4.1695e-01 1.1342 0.2566999
## df$qLab -4.3567e-02 1.1464e-02 -3.8004 0.0001444 ***
## df$qCap 1.1275e-01 3.4210e-02 3.2959 0.0009809 ***
## df$qFuel -3.0208e-02 4.2769e-02 -0.7063 0.4799907
## sigmaSq 2.5955e-01 2.5381e-02 10.2260 < 2.2e-16 ***
## gamma 8.3202e-06 6.2825e-03 0.0013 0.9989433
## sigmaSqU 2.1595e-06 1.6306e-03 0.0013 0.9989433
## sigmaSqV 2.5955e-01 2.5389e-02 10.2227 < 2.2e-16 ***
## sigma 5.0946e-01 2.4910e-02 20.4520 < 2.2e-16 ***
## sigmaU 1.4695e-03 5.5481e-01 0.0026 0.9978867
## sigmaV 5.0946e-01 2.4918e-02 20.4454 < 2.2e-16 ***
## lambdaSq 8.3203e-06 6.2826e-03 0.0013 0.9989433
## lambda 2.8845e-03 1.0890e+00 0.0026 0.9978867
## varU 7.8472e-07 NA NA NA
## sdU 8.8584e-04 NA NA NA
## gammaVar 3.0234e-06 NA NA NA
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## log likelihood value: -172.7309
##
## cross-sectional data
## total number of observations = 232
##
## mean efficiency: 0.9988286
L’élasticité output du travail est de -0.04, celle du capital, 0.11 et celle du fuel est de -0.03. L’efficacité moyenne dans ce modèle est de 99 %. On peut également remarquer que l’inefficacité n’a pas d’incidence sur la variance du modèle, qui est, elle aussi, négligeable.
Dans ce modèle, toutes les entreprises produisent presque 100% de l’output possible avec leurs quantités d’inputs.
Comme prévu, l’efficacité des entreprises est fortement corrélée à la quantité d’output produite.
Le modèle translog estimé s’écrit comme suit :
\(log(qOut) = \beta_0 + \beta_1log(qCap) + \beta_2log(qLab) + \beta_3log(qFuel) + \frac{1}{2} \beta_4 log(qFuel)^2 + \frac{1}{2} \beta_5 log(qLab)^2 + \frac{1}{2} \beta_6 log(qCap)^2\) \(+ log(qCap) log(qLab) + log(qCap) log(qFuel) + log(qFuel) log(qLab) + \eta\)
## Error Components Frontier (see Battese & Coelli 1992)
## Inefficiency decreases the endogenous variable (as in a production function)
## The dependent variable is logged
## Iterative ML estimation terminated after 22 iterations:
## log likelihood values and parameters of two successive iterations
## are within the tolerance limit
##
## final maximum likelihood estimates
## Estimate Std. Error z value Pr(>|z|)
## (Intercept) -0.154391 0.094174 -1.6394 0.101124
## log(qCap) 1.753149 0.769515 2.2783 0.022712 *
## log(qLab) -0.307270 0.261905 -1.1732 0.240711
## log(qFuel) -0.716922 0.802391 -0.8935 0.371599
## I(0.5 * log(qCap)^2) -3.453525 2.866150 -1.2049 0.228228
## I(0.5 * log(qLab)^2) -0.681597 0.623683 -1.0929 0.274456
## I(0.5 * log(qFuel)^2) -2.946233 2.917300 -1.0099 0.312535
## I(log(qCap) * log(qLab)) 0.709766 0.890046 0.7974 0.425190
## I(log(qCap) * log(qFuel)) 2.687840 2.751150 0.9770 0.328575
## I(log(qLab) * log(qFuel)) 0.011405 0.822682 0.0139 0.988939
## sigmaSq 1.573413 0.185367 8.4881 < 2.2e-16 ***
## gamma 0.983474 0.012147 80.9645 < 2.2e-16 ***
## sigmaSqU 1.547410 0.194276 7.9650 1.652e-15 ***
## sigmaSqV 0.026003 0.017465 1.4888 0.136534
## sigma 1.254358 0.073889 16.9762 < 2.2e-16 ***
## sigmaU 1.243949 0.078088 15.9300 < 2.2e-16 ***
## sigmaV 0.161254 0.054155 2.9776 0.002905 **
## lambdaSq 59.509377 44.474746 1.3380 0.180881
## lambda 7.714232 2.882642 2.6761 0.007448 **
## varU 0.562298 NA NA NA
## sdU 0.749865 NA NA NA
## gammaVar 0.955800 NA NA NA
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## log likelihood value: -242.2081
##
## cross-sectional data
## total number of observations = 232
##
## mean efficiency: 0.4638493
Dans ce modèle, l’efficacité moyenne des entreprises est de 46%. Il y a peu de variables significatives, et 98% de la variance totale est expliquée par l’inefficacité.
## Likelihood ratio test
##
## Model 1: Transhalf2
## Model 2: CDhalf
## #Df LogLik Df Chisq Pr(>Chisq)
## 1 12 -242.21
## 2 6 -172.73 -6 138.95 < 2.2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
La fonction Cobb-Douglas est conservée, aux dépens de la fonction translog.